微信AI攻克与女孩聊天重大难题
士别三日,当刮目相看。
微信那些自称语言大师(擅长各类计算机语言:Python、Java、C++...)的程序员同事们,最近又解锁了一个新语言领域,即和女孩聊天的深奥“科学”。
他们还特意炫了一段聊天截图,你看看👇
这个WeLM到底是何许人?
正准备去问,很快,它的两段自我介绍也发过来了。
好家伙,竟然整起了古文。
虽然似懂非懂,但大抵可以确定WeLM它不是人!
经同事介绍,WeLM其实是微信版的大规模语言模型,全名Well-Read Language Model。它通过学习包括中文网页、大量书籍、新闻、论坛数据和学术论文等百亿级的参数,最终锻炼成了一个学富五车的有文化、高情商的“语言大师”。
简单来说,我的同事们用计算机语言训练并攻克了人类的对话沟通语言,并且还轻描淡写地说什么“都是语言,应该没什么区别。”
有了WeLM,不仅可以跟女孩轻松对话,还能跟古人对话。
· 一上来就挑战高难度,直接对话李白。
这水平,搞起文学创作也不在话下。
· 写小说:
· 写诗歌:
· 以及,写公众号推文:
因为学富100亿(参数),它记忆力惊人,很爱接话。
遇到知识疑问,它深厚的文化底蕴也就显现出来了。
跨语言聊天,搞搞翻译甚至三语夹杂也难不倒它。
假以时日,它的逻辑思维能力也足以驾驭阅读理解题了。
也千万别跟它斗嘴,这只会让它持续纠错变成大聪明。
当然,仅仅单任务工作已经无法表现它的“非人类”了,要知道WeLM最多可以同时干14件事情。可以说因为一个“跟女孩聊天”的小困扰,最终逼出了最强的AI。
WeLM还在持续变强,其实它百亿级别的参数量跟国外大规模语言模型比起来并不算大。但实验结果显示,它在18个中文语言任务里,效果堪比参数量是其25倍的模型。
归根结底是WeLM在精心准备的更加高质量的数据上经过了充分训练,简单来说,就是WeLM吃的都是精粮,更加“益智健脑”。
现在,WeLM线上Demo释出的功能包括:对话-采访、阅读理解、翻译、改写、续写以及自由任务。
如果你已经手痒了,可以来练练它👇
体验链接:
https://welm.weixin.qq.com/docs/playground/
API接口:
https://welm.weixin.qq.com/docs/api/
论文地址: